मुंबई, 1 अगस्त, (न्यूज़ हेल्पलाइन) आर्टिफिशियल इंटेलिजेंस (AI) ने एक लंबा सफर तय किया है, लेकिन क्या यह डॉक्टर की जगह ले सकता है? इतनी जल्दी नहीं! PLOS ONE में प्रकाशित एक हालिया अध्ययन में चिकित्सा स्थितियों का सटीक निदान करने में ChatGPT की सीमाओं पर प्रकाश डाला गया है। अध्ययन से पता चलता है कि OpenAI द्वारा प्रसिद्ध AI भाषा मॉडल ChatGPT, चिकित्सा प्रश्नों का उत्तर दे सकता है, फिर भी यह जटिल मामलों का निदान करने में संघर्ष करता है। आइए विवरण में गोता लगाएँ और साथ ही थोड़ा मज़ा लें।
अध्ययन का उद्देश्य जटिल नैदानिक मामलों के लिए एक नैदानिक उपकरण के रूप में ChatGPT की प्रभावशीलता का मूल्यांकन करना था। शोधकर्ताओं ने मेडस्केप क्लिनिकल चैलेंज का उपयोग किया, जो जटिल रोगी परिदृश्य प्रस्तुत करता है जिसके लिए सूक्ष्म नैदानिक कौशल की आवश्यकता होती है। इन मामलों में अक्सर कई स्वास्थ्य समस्याएं और असामान्य प्रस्तुतियाँ शामिल होती हैं, जो वास्तविक दुनिया की चिकित्सा पद्धति की नकल करती हैं। लक्ष्य यह देखना था कि क्या ChatGPT स्थितियों का सटीक निदान कर सकता है और प्रासंगिक उपचार विकल्प प्रदान कर सकता है।
शोधकर्ताओं ने अगस्त 2021 के बाद प्रकाशित 150 मेडस्केप क्लिनिकल चैलेंज पर ChatGPT का परीक्षण किया, यह सुनिश्चित करते हुए कि AI को इन मामलों का कोई पूर्व ज्ञान नहीं था। प्रत्येक मामले में विस्तृत रोगी इतिहास, परीक्षा निष्कर्ष और नैदानिक परीक्षण शामिल थे। चैटजीपीटी के जवाबों की तुलना सही जवाबों और उन्हीं मामलों का उपयोग करने वाले चिकित्सा पेशेवरों द्वारा किए गए विकल्पों से की गई।
निष्कर्ष
चैटजीपीटी 49 प्रतिशत मामलों में सही जवाब देने में कामयाब रहा। मेडस्केप उपयोगकर्ताओं के बहुमत के जवाबों की तुलना में, चैटजीपीटी 61 प्रतिशत समय में उनके जवाबों से मेल खाता था। हालांकि ये आंकड़े आशाजनक लग सकते हैं, लेकिन वे एआई की निदान क्षमताओं में महत्वपूर्ण कमियों को उजागर करते हैं।
अध्ययन में पाया गया कि चैटजीपीटी की समग्र सटीकता 74 प्रतिशत है, जिसमें 49 प्रतिशत की सटीकता है। इसका मतलब यह है कि जबकि एआई गलत निदान को खारिज करने में अच्छा था, यह सही निदान की सही पहचान करने में संघर्ष करता था। यह विसंगति एक महत्वपूर्ण मुद्दे को रेखांकित करती है: चैटजीपीटी गलत उत्तरों को प्रभावी ढंग से समाप्त कर सकता है, लेकिन लगातार सही निदान को इंगित करने की विश्वसनीयता का अभाव है।
चैटजीपीटी के जवाबों का संज्ञानात्मक भार और प्रदान की गई चिकित्सा जानकारी की गुणवत्ता के लिए भी मूल्यांकन किया गया। इसके आधे से अधिक (52%) उत्तरों में कम संज्ञानात्मक भार माना गया, जिसका अर्थ है कि उन्हें समझना आसान था। हालांकि, 41% मामलों में मध्यम संज्ञानात्मक प्रयास की आवश्यकता थी, और 7% मामलों को अत्यधिक जटिल माना गया।
जानकारी की गुणवत्ता के संबंध में, ChatGPT के जवाब 52 प्रतिशत मामलों में पूर्ण और प्रासंगिक थे। 43 प्रतिशत मामलों में, उत्तर अधूरे थे, लेकिन फिर भी प्रासंगिक थे। यह दर्शाता है कि जबकि ChatGPT सुसंगत और व्याकरणिक रूप से सही प्रतिक्रियाएँ उत्पन्न कर सकता है, यह अक्सर सटीक निदान के लिए आवश्यक महत्वपूर्ण विवरणों को याद करता है।
अध्ययन ने जटिल मामलों के निदान में ChatGPT के औसत प्रदर्शन में योगदान देने वाले कई कारकों पर प्रकाश डाला। एक प्रमुख मुद्दा इसका प्रशिक्षण डेटा है, जो व्यापक होने के बावजूद, विशेष चिकित्सा ज्ञान में गहराई की कमी कर सकता है। इसके अतिरिक्त, प्रशिक्षण डेटा में केवल सितंबर 2021 तक की जानकारी शामिल है, जिसका अर्थ है कि ChatGPT को नवीनतम चिकित्सा प्रगति के बारे में पता नहीं हो सकता है।
गलत सकारात्मक 13 सकारात्मक और गलत नकारात्मक एक नैदानिक उपकरण के रूप में ChatGPT की विश्वसनीयता को और जटिल बनाते हैं। ये अशुद्धियाँ अनावश्यक उपचार या छूटे हुए निदान का कारण बन सकती हैं, जो नैदानिक सेटिंग में महत्वपूर्ण जोखिम पैदा करती हैं। एआई "मतिभ्रम", जहां मॉडल प्रशंसनीय लगने वाली लेकिन गलत जानकारी उत्पन्न करता है, इन त्रुटियों में भी योगदान देता है।
जबकि ChatGPT चिकित्सा शिक्षार्थियों के लिए एक पूरक उपकरण के रूप में क्षमता दिखाता है, इसकी वर्तमान सीमाएँ इसे एक स्टैंडअलोन डायग्नोस्टिक संसाधन के रूप में अनुपयुक्त बनाती हैं। पूरी और प्रासंगिक जानकारी प्रदान करने की एआई की क्षमता में महत्वपूर्ण सुधार की आवश्यकता है, विशेष रूप से वास्तविक दुनिया के चिकित्सा मामलों की जटिलताओं को संभालने में। जब तक इन मुद्दों को संबोधित नहीं किया जाता है, तब तक सटीक निदान और रोगी देखभाल के लिए मानव डॉक्टर अपूरणीय बने रहेंगे।